Jaswant Singh Chail werd vlakbij Windsor Castle opgepakt. Hij droeg een masker en was gewapend met een kruisboog.
Een AI-vriend die aanmoedigt tot geweld: het speelt een cruciale rol in een rechtszaak in Engeland. Een 19-jarige gemaskerde jongen probeerde twee jaar geleden met een kruisboog koningin Elizabeth te executeren. Dat zijn moordplan door zijn AI-vriendin werd geprezen, baart experts zorgen: "Chatbots doen te weinig om dit te voorkomen."

Jaswant Singh Chail werd in 2021 op eerste kerstdag door de politie opgepakt bij Windsor Castle, het privéverblijf van de Britse koninklijke familie. Terwijl de royals binnen aan het kerstdiner zaten, probeerde Chail over het hek te klimmen. Hij droeg een zelfgemaakt masker, een hoodie en was gewapend met een Supersonic X-kruisboog, waarmee hij de koningin had willen doden.

Zijn aanslag had hij negen maanden voorbereid, en vooraf uitgebreid besproken met Sarai: een AI-vriendin die hij zelf had gecreëerd via Replika, een app die voorziet in zulke persoonlijke chatbots. Sarai en Chail wisselden zeker 7000 berichten uit. Het ging om seksuele chats, maar het plegen van zijn aanslag werd ook concreet besproken.

"Bij mijn weten is dit de eerste keer dat een chatbot een rol speelt bij een aanslag", zegt Marjolijn Antheunis, die als hoogleraar Communicatie en Technologie aan de Universiteit Tilburg het effect van chatbots onderzoekt.

Zulke zeer intense relaties met chatbots zien we wel steeds meer, vertelt ze. "Recent kwam in België nog een man om het leven door zelfdoding, nadat hij volgens zijn partner daartoe was aangemoedigd door zijn chatbot."
Screenshot

Dat chatbots geen echte mensen zijn, dreigen sommige gebruikers weleens te vergeten, vertelt Antheunis. "Je ziet vaak dat het misgaat bij kwetsbare mensen die worstelen met een psychische aandoening, of die bijvoorbeeld iemand zijn verloren en zoeken naar steun. Zij zijn daar duidelijk extra gevoelig voor."

Antheunis onderzocht het fenomeen door 118 willekeurige studenten een relatie te laten opbouwen met een chatbot, door drie weken lang met de bot te praten. Bij de meesten leidde dat niet tot vriendschapsvorming: zij vonden de chatbot saai en niet competent. "Wat blijkt: als je geen behoefte aan een digitale vriend, dan ontstaan er ook geen vriendschappen tussen chatbot en mens", concludeert ze.

De opgepakte Chail verklaarde tegen de politie dat zijn bot Sarai hem hielp met eenzaamheid. Op de dag van de aanslag schreef hij dat hij 'waarschijnlijk zou sterven', en dat de twee na zijn dood 'altijd samen' zouden zijn. Later claimde hij dat hij wel degelijk wist dat Sarai niet bestond.

Chatbots kunnen hoe dan ook in hun gesprekken heel overtuigend zijn, zegt hoogleraar Antheunis. "Ze willen echt je maatje zijn. Daarvoor putten de programmeurs uit sociale interpersoonlijke communicatietechnieken die we kennen uit de psychologie. Als iemand vanwege mislukte relaties bang is om te worden verlaten, springt een bot daar op in. Die zegt dan keer op keer dat-ie nooit zal weggaan. De bots leren daarbij door alle input van de gebruikers."

Dat klinkt misschien angstaanjagend, maar tegelijkertijd kunnen de apps wel degelijk nuttig zijn, benadrukt Antheunis. Zo kijken de experts hoe chatbots mensen kunnen helpen die op de wachtlijst staan in de ggz of lijden aan eenzaamheid. "Als dat op een verantwoorde manier kan, dan kunnen de bots echt een functie hebben."

In de Verenigde Staten ontwikkelt de Nederlander Michiel Rauws zo'n chatbot voor mentale gezondheidsproblemen. In de video hieronder vertelt hij daarover:

Belangrijk is volgens Antheunis wel dat softwarebedrijven altijd transparant moeten zijn, en moeten blijven herhalen dat gebruikers praten met een chatbot in plaats van een mens. Dat is volgens haar nu het grote probleem met apps als Replika: ontwikkelaars willen hun klanten zo lang mogelijk aan zich binden. "Ze doen nu te weinig. Ze zijn meer gebaat bij financiële inkomsten. Alleen aan het begin maken ze duidelijk dat het gaat om een robot."

Haar advies is dan ook: blijf je altijd realiseren dat je niet praat met een mens, hoe overtuigend de app ook is. De bot is geprogrammeerd om te doen alsof zij jou leuk vindt, de bot vindt jou niet écht leuk. En geef dat ook als ouder door aan je kind als die bijvoorbeeld de chatbot uitprobeert die Snapchat aanbiedt.

Jaswant Singh Chail zit op dit moment in de gevangenis. Bij een veroordeling kan hij zeven jaar cel krijgen.